Post-hoc explanation methods have become increasingly depended upon for understanding black-box classifiers in high-stakes applications, precipitating a need for reliable explanations. While numerous explanation methods have been proposed, recent works have shown that many existing methods can be inconsistent or unstable. In addition, high-performing classifiers are often highly nonlinear and can exhibit complex behavior around the decision boundary, leading to brittle or misleading local explanations. Therefore, there is an impending need to quantify the uncertainty of such explanation methods in order to understand when explanations are trustworthy. We introduce a novel uncertainty quantification method parameterized by a Gaussian Process model, which combines the uncertainty approximation of existing methods with a novel geodesic-based similarity which captures the complexity of the target black-box decision boundary. The proposed framework is highly flexible; it can be used with any black-box classifier and feature attribution method to amortize uncertainty estimates for explanations. We show theoretically that our proposed geodesic-based kernel similarity increases with the complexity of the decision boundary. Empirical results on multiple tabular and image datasets show that our decision boundary-aware uncertainty estimate improves understanding of explanations as compared to existing methods.
translated by 谷歌翻译
机器学习方法在做出预测方面越来越好,但与此同时,它们也变得越来越复杂和透明。结果,通常依靠解释器为这些黑框预测模型提供可解释性。作为关键的诊断工具,重要的是这些解释者本身是可靠的。在本文中,我们关注可靠性的一个特定方面,即解释器应为类似的数据输入提供类似的解释。我们通过引入和定义解释者的敏锐度,类似于分类器的敏锐性来形式化这个概念。我们的形式主义灵感来自概率lipchitzness的概念,该概念捕捉了功能局部平滑度的可能性。对于各种解释者(例如,摇摆,上升,CXPLAIN),我们为这些解释者的敏锐性提供了下限保证,鉴于预测函数的lipschitzness。这些理论上的结果表明,局部平滑的预测函数为局部强大的解释提供了自身。我们对模拟和真实数据集进行经验评估这些结果。
translated by 谷歌翻译
We introduce a language generation task grounded in a popular video game environment. KNUDGE (KNowledge Constrained User-NPC Dialogue GEneration) involves generating dialogue trees conditioned on an ontology captured in natural language passages providing quest and entity specifications. KNUDGE is constructed from side quest dialogues drawn directly from game data of Obsidian Entertainment's The Outer Worlds, leading to real-world complexities in generation: (1) dialogues are branching trees as opposed to linear chains of utterances; (2) utterances must remain faithful to the game lore--character personas, backstories, and entity relationships; and (3) a dialogue must accurately reveal new quest-related details to the human player. We report results for supervised and in-context learning techniques, finding there is significant room for future work on creating realistic game-quality dialogues.
translated by 谷歌翻译
ICECUBE是一种用于检测1 GEV和1 PEV之间大气和天体中微子的光学传感器的立方公斤阵列,该阵列已部署1.45 km至2.45 km的南极的冰盖表面以下1.45 km至2.45 km。来自ICE探测器的事件的分类和重建在ICeCube数据分析中起着核心作用。重建和分类事件是一个挑战,这是由于探测器的几何形状,不均匀的散射和冰中光的吸收,并且低于100 GEV的光,每个事件产生的信号光子数量相对较少。为了应对这一挑战,可以将ICECUBE事件表示为点云图形,并将图形神经网络(GNN)作为分类和重建方法。 GNN能够将中微子事件与宇宙射线背景区分开,对不同的中微子事件类型进行分类,并重建沉积的能量,方向和相互作用顶点。基于仿真,我们提供了1-100 GEV能量范围的比较与当前ICECUBE分析中使用的当前最新最大似然技术,包括已知系统不确定性的影响。对于中微子事件分类,与当前的IceCube方法相比,GNN以固定的假阳性速率(FPR)提高了信号效率的18%。另外,GNN在固定信号效率下将FPR的降低超过8(低于半百分比)。对于能源,方向和相互作用顶点的重建,与当前最大似然技术相比,分辨率平均提高了13%-20%。当在GPU上运行时,GNN能够以几乎是2.7 kHz的中位数ICECUBE触发速率的速率处理ICECUBE事件,这打开了在在线搜索瞬态事件中使用低能量中微子的可能性。
translated by 谷歌翻译
光环伴形培养基中的离子气体通过热阳光阳光层(TSZ)效应在宇宙微波背景上留下烙印。来自活性银河核(AGN)和超新星的反馈会影响晕孔集成TSZ通量的测量($ y_ \ mathrm {sz} $),并导致其与光晕质量的关系($ y_ \ mathrm {sz} -mm $ )偏离病毒定理的自相似幂律预测。我们对使用骆驼,一套流体动力模拟的套件进行了全面研究,反馈处方的差异很大。我们使用两个机器学习工具(随机森林和符号回归)的组合来搜索$ y-m $关系的类似物,这对低质量的反馈过程($ m \ sillesim 10^{14} \,h^, {-1} \,m_ \ odot $);我们发现,仅替换$ y \ rightarrow y(1+m _*/m_ \ mathrm {gas})$在关系中使其非常相似。这可以用作低质量簇和星系组的强大多波长质量代理。我们的方法通常对于提高其他天体分级关系的有效性领域通常也很有用。我们还预测,$ y-m $关系的测量值可以在反馈参数的某些组合和/或排除超级新闻和AGN反馈模型的主要部分,以提供百分比的约束。艺术流体动力模拟。我们的结果对于使用即将进行的SZ调查(例如SO,CMB-S4)和Galaxy Surveys(例如Desi和Rubin)来限制Baryonic反馈的性质。最后,我们发现,$ y-m _*$的另一种关系提供了有关反馈的补充信息,而不是$ y-m $。
translated by 谷歌翻译
尽管变压器语言模型(LMS)是信息提取的最新技术,但长文本引入了需要次优的预处理步骤或替代模型体系结构的计算挑战。稀疏注意的LMS可以代表更长的序列,克服性能障碍。但是,目前尚不清楚如何解释这些模型的预测,因为并非所有令牌都在自我发项层中相互参加,而在运行时,长序列对可解释性算法提出了计算挑战,而当运行时取决于文档长度。这些挑战在文档可能很长的医学环境中是严重的,机器学习(ML)模型必须是审核和值得信赖的。我们介绍了一种新颖的蒙版抽样程序(MSP),以识别有助于预测的文本块,将MSP应用于预测医学文本诊断的背景下,并通过两位临床医生的盲目审查来验证我们的方法。我们的方法比以前的最先进的临床信息块高约1.7倍,速度更快100倍,并且可用于生成重要的短语对。 MSP特别适合长LMS,但可以应用于任何文本分类器。我们提供了MSP的一般实施。
translated by 谷歌翻译
大语言模型(LLM)的广泛成功已受到怀疑,即他们拥有人类概念或含义之类的东西。与声称LLM没有任何意义的声称相反,我们认为它们可能会捕捉意义的重要方面,此外,工作的工作方式近似于对人类认知的令人信服的说法,在这种认知中,概念作用引起了意义。由于概念角色是由内部代表性之间的关系定义的,因此含义不能从模型的架构,培训数据或目标功能中确定,而只能通过检查其内部状态之间的相互关系。这种方法可以阐明为什么LLM如此成功,并暗示如何使它们变得更像人性化。
translated by 谷歌翻译
在基于模型的马尔可夫决策过程的大多数应用中,通常从经验数据中估算出未知基础模型的参数。由于噪音,从估计模型中学到的政策通常与基础模型的最佳政策相去甚远。当应用于基础模型的环境时,学习的政策会导致次优性能,因此要求提供更好的概括性能的解决方案。在这项工作中,我们采用贝叶斯的观点,并通过先验信息将马尔可夫决策过程的目标函数正规化,以获得更强大的策略。提出了两种方法,一种基于$ l^1 $正则化,另一种基于相对熵正则化。我们评估了有关合成模拟和大规模在线购物商店的现实搜索日志的建议算法。我们的结果证明了正则MDP策略对模型中存在的噪声的鲁棒性。
translated by 谷歌翻译
气候,化学或天体物理学中的数值模拟在计算上对于高分辨率下的不确定性定量或参数探索而言太昂贵。减少或替代模型的多个数量级更快,但是传统的替代物是僵化或不准确和纯机器学习(ML)基于基于数据的替代物。我们提出了一个混合,灵活的替代模型,该模型利用已知的物理学来模拟大规模动力学,并将学习到难以模拟的项,该术语称为参数化或闭合,并捕获了细界面对大型动力学的影响。利用神经操作员,我们是第一个学习独立于网格的,非本地和灵活的参数化的人。我们的\ textit {多尺度神经操作员}是由多尺度建模的丰富文献进行的,具有准线性运行时复杂性,比最先进的参数化更准确或更灵活,并且在混乱方程的多尺度lorenz96上证明。
translated by 谷歌翻译
抽象推理是智能系统的关键能力。大型语言模型在抽象推理任务上实现了高度的性能,但表现出许多缺陷。但是,人类的抽象推理也是不完美的,并且取决于我们对推理问题内容的知识和信念。例如,人类对在日常情况下基于逻辑规则的逻辑规则比关于抽象属性的任意规则更可靠地理解。语言模型的培训经验类似地赋予了他们先前的期望,这些期望反映了人类的知识和信念。因此,我们假设语言模型会显示出类似人类的内容对抽象推理问题的影响。我们在三个逻辑推理任务中探讨了这一假设:自然语言推论,判断三段论的逻辑有效性和ison选择任务(Wason,1968)。我们发现,最新的大语言模型(具有7或700亿个参数; Hoffman等,2022)反映了这些任务中人类在人类中观察到的许多相同模式 - 像人类一样,模型对可信情况的理由更有效地理由不现实或抽象的。我们的发现对理解这些认知效应以及有助于语言模型表现的因素具有影响。
translated by 谷歌翻译